Telegram Group & Telegram Channel
⚛️ Photon

Инструмент на Python, разработанный для автоматизации сбора информации и представляет собой веб-краулер, который извлекает данные с веб-сайтов. Имеет настраиваемую глубину сканирования, поддерживает различные фильтры и позволяет сохранять данные в удобном формате.

Photon начинает работу с корневого URL и следует по всем обнаруженным ссылкам до заданной глубины. Затем анализирует HTML-код каждой страницы, используя библиотеку BeautifulSoup и регулярные выражения и извлекает данные в структурированном виде.

🕷 Извлекает следующие данные во время обхода
⏺️URL-адреса с параметрами/без;
⏺️различную информацию (электронная почта, аккаунты в социальных сетях и т.д.);
⏺️файлы (pdf, png, xml и т.д.);
⏺️секретные ключи и токены (auth/API);
⏺️JavaScript файлы и присутствующие в них конечные точки;
⏺️строки, соответствующие пользовательскому шаблону регулярных выражений;
⏺️поддомены и данные, связанные с DNS.

📌 Установка и использование
git clone https://github.com/s0md3v/Photon.git
cd Photon
pip install -r requirements.txt


Сканирование заданного URL с глубиной поиска 2:
python3 photon.py -u https://example.com -l 2


Поддерживает следующие опции:
--timeout: количество секунд, в течение которых следует ожидать, прежде чем считать, что запрос HTTP(S) не выполнен;
--delay: количество секунд ожидания между каждым запросом;
--threads:
указание количества одновременных запросов;
--level:
ограничение на глубину рекурсии при сканировании;
--cookies, --user-agent:
добавление Cookie в каждый HTTP-запрос, пользовательские агенты;
--exclude:
URL, соответствующие указанному регулярному выражению, не будут сканироваться и не будут отображаться в результатах поиска;
--seeds:
пользовательские начальные URL;
--only-urls:
не извлекаются различные файлы, сканируется только целевая страница;
--regex
: указывается шаблон для извлечения строк во время сканирования;
--keys: поиск строк с высокой энтропией;
--dns:
сохраняет поддомены в файле subdomains.txt, а также генерирует изображение с данными DNS целевого домена;
--wayback: извлекает архивные URL-адреса с сайта archive.org и использует их в качестве начальных.
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/codeby_sec/9046
Create:
Last Update:

⚛️ Photon

Инструмент на Python, разработанный для автоматизации сбора информации и представляет собой веб-краулер, который извлекает данные с веб-сайтов. Имеет настраиваемую глубину сканирования, поддерживает различные фильтры и позволяет сохранять данные в удобном формате.

Photon начинает работу с корневого URL и следует по всем обнаруженным ссылкам до заданной глубины. Затем анализирует HTML-код каждой страницы, используя библиотеку BeautifulSoup и регулярные выражения и извлекает данные в структурированном виде.

🕷 Извлекает следующие данные во время обхода
⏺️URL-адреса с параметрами/без;
⏺️различную информацию (электронная почта, аккаунты в социальных сетях и т.д.);
⏺️файлы (pdf, png, xml и т.д.);
⏺️секретные ключи и токены (auth/API);
⏺️JavaScript файлы и присутствующие в них конечные точки;
⏺️строки, соответствующие пользовательскому шаблону регулярных выражений;
⏺️поддомены и данные, связанные с DNS.

📌 Установка и использование

git clone https://github.com/s0md3v/Photon.git
cd Photon
pip install -r requirements.txt


Сканирование заданного URL с глубиной поиска 2:
python3 photon.py -u https://example.com -l 2


Поддерживает следующие опции:
--timeout: количество секунд, в течение которых следует ожидать, прежде чем считать, что запрос HTTP(S) не выполнен;
--delay: количество секунд ожидания между каждым запросом;
--threads:
указание количества одновременных запросов;
--level:
ограничение на глубину рекурсии при сканировании;
--cookies, --user-agent:
добавление Cookie в каждый HTTP-запрос, пользовательские агенты;
--exclude:
URL, соответствующие указанному регулярному выражению, не будут сканироваться и не будут отображаться в результатах поиска;
--seeds:
пользовательские начальные URL;
--only-urls:
не извлекаются различные файлы, сканируется только целевая страница;
--regex
: указывается шаблон для извлечения строк во время сканирования;
--keys: поиск строк с высокой энтропией;
--dns:
сохраняет поддомены в файле subdomains.txt, а также генерирует изображение с данными DNS целевого домена;
--wayback: извлекает архивные URL-адреса с сайта archive.org и использует их в качестве начальных.

BY Codeby




Share with your friend now:
tg-me.com/codeby_sec/9046

View MORE
Open in Telegram


Codeby Pentest Telegram | DID YOU KNOW?

Date: |

Telegram Gives Up On Crypto Blockchain Project

Durov said on his Telegram channel today that the two and a half year blockchain and crypto project has been put to sleep. Ironically, after leaving Russia because the government wanted his encryption keys to his social media firm, Durov’s cryptocurrency idea lost steam because of a U.S. court. “The technology we created allowed for an open, free, decentralized exchange of value and ideas. TON had the potential to revolutionize how people store and transfer funds and information,” he wrote on his channel. “Unfortunately, a U.S. court stopped TON from happening.”

The STAR Market, as is implied by the name, is heavily geared toward smaller innovative tech companies, in particular those engaged in strategically important fields, such as biopharmaceuticals, 5G technology, semiconductors, and new energy. The STAR Market currently has 340 listed securities. The STAR Market is seen as important for China’s high-tech and emerging industries, providing a space for smaller companies to raise capital in China. This is especially significant for technology companies that may be viewed with suspicion on overseas stock exchanges.

Codeby Pentest from vn


Telegram Codeby
FROM USA